- bedingte mathematische Erwartung
- условное математическое ожидание
Немецко-русский математический словарь. 2013.
Немецко-русский математический словарь. 2013.
Bedingter Erwartungswert — Bedingte Erwartungswerte und bedingte Wahrscheinlichkeiten, gegeben eine Zufallsvariable oder Teil σ Algebra, stellen eine Verallgemeinerung von bedingten Wahrscheinlichkeiten dar. Sie spielen eine zentrale Rolle in der Theorie der stochastischen … Deutsch Wikipedia
Geschichte der Stochastik — Roulettespieler, um 1800. Das Glücksspiel war eine der frühesten Triebfedern der Wahrscheinlichkeitsrechnung … Deutsch Wikipedia
Geschichte der Wahrscheinlichkeitstheorie — Roulettespieler, um 1800. Das Glücksspiel war eine der frühesten Triebfedern der Wahrscheinlichkeitsrechnung … Deutsch Wikipedia
Umtauschparadoxon — Das Umtauschparadoxon (oder Briefumschlagparadoxon) beschreibt eine spezielle mathematische Situation, bei der das naive Rechnen mit Erwartungswerten, insbesondere die Anwendung des Indifferenzprinzips, zu einem Widerspruch mit dem gesunden… … Deutsch Wikipedia
Geschichte der Wahrscheinlichkeitsrechnung — Roulettespieler, um 1800. Das Glücksspiel war eine der frühesten Triebfedern der Wahrscheinlichkeitsrechnung … Deutsch Wikipedia
Harris-Ketten — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markoff-Kette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markoffkette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markov-Chain — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markov-Eigenschaft — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markov-Kette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia